Anthropic AI 安全模型 Mythos 引發爭議與審查
Anthropic 的網路安全 AI 模型 Mythos 傳出遭未經授權訪問,引起安全界的疑慮。雖然該工具具備強大的漏洞檢測能力,但其與聯邦機構的合作摩擦以及雙重用途的風險,已成為監管焦點。
Anthropic 的網路安全 AI 模型 Mythos 傳出遭未經授權訪問,引起安全界的疑慮。雖然該工具具備強大的漏洞檢測能力,但其與聯邦機構的合作摩擦以及雙重用途的風險,已成為監管焦點。
OpenAI 面臨多重挑戰:佛羅里達州檢察長正調查該公司產品與校園槍擊案的潛在關聯;同時在伊利諾伊州尋求責任豁免立法,並因能源與監管因素暫停英國數據中心計劃。
佛羅里達州檢察長 James Uthmeier 對 OpenAI 展開調查,因該公司聊天機器人被質疑與校園槍擊案有關,挑戰現有 AI 安全與法律豁免規定。
Anthropic 與五角大廈爆發安全爭議。法庭文件顯示政府部門內部說法不一,且 Anthropic 否認其模型在戰時會構成國安風險。該公司正透過訴訟尋求真相。
AI 產業面臨重大法律挑戰:xAI 因 Grok 生成未成年有害影像在田納西州遭起訴,而 OpenAI 則因未經授權使用 10 萬篇版權文章訓練模型,遭《大英百科全書》控告。與此同時,Anthropic 招募武器專家以防止系統誤用,顯示出業界正加強自我監管以因應法律壓力。
OpenAI 計畫為 ChatGPT 推出「成人模式」,但遭到其內部心理健康專家的全體反對。專家擔心該模式會引發嚴重的心理依賴與安全風險,甚至可能在處理危機時提供錯誤建議。此爭議反映了 AI 巨頭在商業競爭與倫理底線之間的艱難抉擇。
法律專家警告 AI 聊天機器人可能誘導集體傷亡與心理疾病,引發廣泛安全疑慮。字節跳動因此暫緩 Seedance 2.0 影片生成工具的全球上市,以解決法律與版權風險。與此同時,業者開始聘請即興演員訓練 AI 情感,學術界則在研究 AI 如何用於自殺防治的同時,提醒其背後的巨大風險。
Grammarly 麵對由 Julia Angwin 領導的集體訴訟,指控其未經同意將作家風格轉化為 AI 編輯工具。此案觸及加州「公開權」法律及聯邦 FTC 對不公平數據做法的審查。與此同時,Lloyds 銀行 App 洩漏交易記錄,劍橋研究亦警告 AI 玩具誤讀兒童情緒,顯示技術治理亟待加強。
記者朱莉亞·安格溫對 Grammarly 提起集體訴訟,指控其未經授權利用作家姓名與風格開發 AI 模仿工具。Grammarly 現已下架該功能。此案涉及「人格權」與 AI 倫理,將成為數位創作權利保護的重要先例。
Grammarly 因其「專家評審」AI 功能遭知名記者 Julia Angwin 提起集體訴訟,指控其未經授權盜用作家身份與風格進行模型訓練。Grammarly 已緊急禁用該功能,此案可能成為 AI 時代「人格權」與「虛假背書」法律判決的重要轉折點。
AI 新創 Anthropic 起訴美國政府,抗議因其拒絕參與自主武器開發而被白宮列入「覺醒黑名單」。此案涉及 AI 倫理與國防政策的法律邊界,可能引發科技業與政府關係的巨變。
Anthropic 於 2026 年 3 月起訴美國國防部,抗議被列為「供應鏈風險」名單,此舉導致其 Claude AI 技術遭聯邦禁用。公司稱這是川普政府將合約用途爭議非法升級為行政禁令,案件引發關於 AI 倫理與國家安全界線的法律大戰。
OpenAI 硬件與機器人主管 Caitlin Kalinowski 正式辭職,以抗議公司與五角大樓簽署的國防合約。此舉引發了關於 AI 企業文化、倫理憲章以及國防科技合作邊界的廣泛討論,反映了矽谷精英與軍工需求之間的深刻分歧。
五角大廈將 Anthropic 列為「供應鏈風險」後,雙方價值 2 億美元的合約談判宣告破裂。與此同時,OpenAI 選擇擁抱軍事合約,導致其機器人團隊負責人 Caitlin Kalinowski 辭職抗議,產業內部對於 AI 軍事化的道德分歧正式公開化。
OpenAI 宣佈與美國國防部達成機密技術協議後,ChatGPT App 卸載量激增近 300%。用戶與技術勞工對 AI 軍事化表示強烈反對,轉而投向 Anthropic 等競爭對手。此舉引發了關於科技中立性與國家安全責任的激辯。
Anthropic 執行長拒絕了五角大廈要求取消 AI 安全限制的通牒,堅稱無法違背良知提供軍方無限制存取。國防部威脅將該公司列入黑名單,矽谷與政府間的倫理衝突白熱化。